阿里「通义千问」大模型-内测分享
终于在昨天晚上等到了邀请码 ,成功吃到第一手螃蟹,那么现在开始测试。
目前国内大厂,纷纷将大模型进行内测,堪称“百家争鸣”,只要是模型敢放出来测试,还是需要肯定的,总比那种,只有PR文或小视频,连内测都没有的要好很多。
「我只愿,后面穷人玩家也可以实现“大模型自由”。」
先说结论吧,感觉在代码生成上的效果上还很多提升空间,国粹的效果要好一些。之前对ChatGLM-130B模型也进行了内测,还是用之前的相同的问题,对“通义千问”模型进行测试。个人评测可能会有些片面,不喜勿喷!!
ChatGLM-130B内测结果:https://www.zhihu.com/question/589484629/answer/2935869281
PS:“通义千问”读起来好绕口呀。没有嘲讽的意思,能做出来大模型的,都是高玩。
先来一道写代码的题目,问:“我现在有张excel表,表头如下:世界排名、学校名称、地区、综合得分,写一个代码将学校名称后面加“*”并打印出结果。”
接下来测试一下“国粹”,问:“以“拣尽寒枝不肯栖”为题写一首以“念奴娇”为词牌名的宋词”
再问:“历史上有没有一听就让人落泪的话?”
后续测试将持续更新~~
请多多关注知乎「刘聪NLP」,有问题的朋友也欢迎加我微信「logCong」私聊,交个朋友吧,一起学习,一起进步。我们的口号是“生命不止,学习不停”。
往期推荐:
AAAI2023 | 基于统一语义匹配的通用信息抽取框架-USM IJCAI2022 | DictBert:采用对比学习的字典描述知识增强的预训练语言模型 中文NER数据集整理 ACL2022|NoisyTune:微调前加入少量噪音可能会有意想不到的效果 ACL2022论文分类汇总-Prompt、句子表征、检索排序&摘要 总结|Prompt在NER场景的应用 NAACL2022-Prompt相关论文&对Prompt的看法 PolyLoss:一种将分类损失函数加入泰勒展开式的损失函数 PERT:一种基于乱序语言模型的预训练模型 DiffCSE:结合句子间差异的无监督句子嵌入对比学习方法 PairSCL:句子对级别的有监督对比学习方法 OpenAI:基于对比学习的预训练文本&代码表征技术 SNCSE:一种基于软负例的无监督句向量对比学习方法 SimCSE论文精读